The Humanities going digital?

board-730793_1920

Frau Prof. Dr. Sybille Krämer, Mitglied unserer Steuerungsgruppe, wird eine große Ehre zuteil: Sie erhält eine Ehrenpromotion der schwedischen Uni Linköping. Herzlichen Glückwunsch dazu!
Die Verleihung findet zeitgleich zu unserem 1. Symposium statt. Aus diesem Anlass kann Sybille Krämer leider nicht mit uns in der Villa Vigoni über den Stand der Digitalität in den Geisteswissenschaften diskutieren. Um sie dennoch zu Wort kommen zu lassen, posten wir hier ein Vortragspaper, in dem sie zeigt, inwiefern es die Bedingungen des alphanumerischen Zeichenraumes selbst sind, die die Option der Digital Humanities unter fortgeschrittenen technologischen Bedingungen eröffnen.

The Humanities going digital?
Vom alphanumerischen Zeichenraum zum vernetzten Datenraum.

Sybille Krämer
Philosophie, Freie Universität Berlin

1.

Die Reaktionen auf die Digital Humanities sind gespalten. Einerseits gibt es die euphorische Hoffnung, dass die Digital Humanities den Königsweg zu einer zukunftsfähigen Form der Geisteswissenschaften  weisen. Andererseits gibt es den ängstlichen Verdacht einer Kolonialisierung hermeneutischer Interpretationskunst durch quantifizierende Muster-Analysen. Die folgenden Überlegungen argumentieren nicht für ein Pro oder Contra. Vielmehr möchten ich zeigen, dass die Entstehung und Ausbreitung der Digital Humanities keine ‚feindliche Übernahme‘ des angestammten Territoriums der Humanities durch einen computerbasierten Newcomer ist. Vielmehr sind es instrinsische Bedingungen geisteswissenschaftlicher Arbeit selbst, deren Verstärkung und Radikalisierung in Verbindung mit technischen Entwicklungen die Digital Humanities überhaupt erst ermöglichen. Die Keime für den Einsatz digitalisierender Methoden sind in methodischen Praktiken alphanumerischer Textualität selbst angelegt. Wenn wir gegenwärtig zu Zeugen werden, wie der ‚alphanumerische Zeichenraum ‘ sich verwandelt in den ‚ navigierbaren Datenraum‘ so sind es Merkmale dieses alphanumerischen Zeichenraumes selbst, welche in Verbindung mit Informationstechnologie diesen digitalen Datenraum hervorbringen. Die Digital Humanities machen etwas  explizit, was geisteswissenschaftliche Arbeit – als Potenzial – implizit charakterisiert;  diese Dimension bezieht sich auf den Schriftcharakter geisteswissenschaftlicher Objekte. [1] Denn Texte sind nicht anders denn in Form wahrnehmbarer Texturen gegeben.

2.

Berechnen und Beschreiben, literacy und numeracy  bilden zwei Formen von Zeichenpraktiken, deren Unterschiede  C. P. Snow  1959 zur Differenz zweier Kulturen auseinander dividierte. Die Entgegensetzung  beider Denkwelten führt zu den charakteristischen Figuren des  ‚innumerate humanist‘ und des ‚Illiterate  scientist’. Diese Konfrontation ist eine Karikatur. Doch wie jede Karikatur enthält sie eine Wahrheit, welche die Unruhe verständlich macht, die mit der Verbreitung der ‚Digital Humanities‘ innerhalb der Humanities ausgelöst wird.  Denn damit wird die Auseinandersetzung zwischen den messenden und den interpretierenden Wissenschaften innerhalb der Geisteswissenschaften selbst geführt.

Eine Dimension in der Konfrontation zwischen Science und Humanities bilden Unterschiede im Umgang mit Zeichen. Die Sciences orientieren sich an der Idealgestalt mathematisch logischer Kalküle; die Formalisierung bildet ihr Telos und Ethos. In den Humanities zielen Zeichenpraktiken auf die Hermeneutik der Entbergung und Auslegung von Sinn und Bedeutung. Das Verstehen ist Telos und Ethos und der Umgang mit Ambivalenzen und Paradoxien ist ausdrücklich zugelassen.

Doch auch diese Kluft zwischen Formalität und Hermeneutik  trügt. Denn die Zeichenpraktiken des Numerischen und des Alphabetischen sind keineswegs Abkömmlinge einander fremder Planeten, vielmehr Mitglieder einer Familie. Mutterboden dieser Familienähnlichkeit ist der Schriftcharakter. Schriften sind diskrete Organisationsformen des Graphischen; alphabetische Schriften beruhen darauf, mit einem  begrenzten Repertoire an bedeutungslosen Grundzeichen auf einer formatierten Fläche so zu operieren, dass dabei komplexe und zugleich sinntragende Zeichensequenzen und das heißt: Texte gebildet werden.  Dieser Textcharakter von Schriftprodukten gilt für formallogische Deduktionen und mathematische Berechnungen ebenso, wie für Notizzettel, philosophische Essays, Laborberichte, Romane und Gedichte: Stets geht semantische Verfasstheit einher mit syntaktischer Differenziertheit. Was immer Geisteswissenschaftler interpretierend mit ihren Texten machen: die Voraussetzung dieser Arbeit beruht darauf, dass Texte in der visuellen Präsenz ihres Schriftbildes eine diskrete Anordnung von Zeichen bilden, welche zu entziffern sind.

Kraft dieser Anordnung können sowohl die an Zahlen orientierten numerische Schriften wie die an Sprache orientierten alphabetischen Schriften als Formen digitalisierbarer Symbolsysteme gelten. Warum das so ist, macht eine einfache Überlegung klar: Jedes singuläre  Element eines schriftlichen Zeichenausdruckes gehört nur zu jeweils einem einzigen allgemeinen Zeichentypus: Ein Vorkommen des Buchstaben ‚a‘ ist genau dadurch bestimmt, dass der Buchstabe ‚a‘ eben nicht zugleich der Buchstabe ‚b‘, ‚c‘….‘z‘ sein kann und insofern eine Realisierung des Buchstaben ‚a‘ als Zeichentypus ist.  Dieses von dem Semiotiker Peirce, dem Sprachwissenschaftler Saussure und dem Philosophen  Goodman reflektierte Prinzip sei ‚differenzielle Struktur‘ genannt.  Das Fundament alphanumerischer Kulturtechniken besteht in seiner basalen Stufe darin, Zeichenreihen zu schreiben und zu lesen, die das Prinzip der ‚differenziellen Strukturiertheit‘ erfüllen. Gewöhnlich bleibt dies unterhalb der Schwelle von Bewusstsein und Wahrnehmung: Wir lesen nicht Buchstabenreihen, sondern sinnvolle Worte und Sätze. Das Medium verschwindet in seinem Gebrauch und nur in der Störung, wenn eine Handschrift nahezu unleserlich ist, wird die Entzifferung der Struktur zum Problem. Halten wir daher fest: Alphanumerische Schriften sind nicht nur digitalisierbare Symbolsysteme, sondern sie sind digitale Systeme. Ihre Übersetzung in ein Binäralphabet ist syntaktisch restlos und semantisch verlustlos möglich, wenn es nicht darum geht, dass die Zeichen für Menschen gut lesbar, schreibbar und manipulierbar sind.

3.

Alphanumerische Schriften, die das Kriterium der differentiellen Strukturiertheit erfüllen, werden zu einem Laborraum des Problemelösens, Schlussfolgerns, Beweisens, Erfindens und Entwerfens. Doch was ist das Geheimnis dieser kognitiven und ästhetischen Produktivkraft? Hier kommt das Phänomen artifizieller Flächigkeit ins Spiel. Wir leben in einer dreidimensionalen Welt, die durch die Achsen unseres Körpers gegliedert ist in ein rechts/links, oben/unten, vorne/hinten. Doch in dieser Welt sind wir beständig konfrontiert mit bebilderten und beschrifteten Flächen. Innerhalb unserer Lebenswelt gibt es ein ‚Dahinter‘ oder ein ‚Darunter‘, so dass in unseren  Wahrnehmungsraum ein Raum des Uneinsehbaren und Unkontrollierbaren eingelassen ist. Durch Erfindung und die Nutzung inskribierter Flächen, die beschrieben und gelesen werden, haben wir einen artifiziellen Sonderraum geschaffen; er ist von Lesern in der Vogelflugperspektive einsehbaren und mit Händen kontrollierbar. Durch die Interaktion von Punkt, Linie und Fläche können theoretische Sachverhalte mit Hilfe zweidimensionaler Konfigurationen unserer Wahrnehmung und Handhabung zugänglich werden. Daher ist der alphanumerische Zeichenraum nicht nur bevölkert von Schriften, sondern auch von Tabellen, Graphen, Diagrammen und Karten. In der Zweidimensionalität des Graphischen kann übrigens alles aufgezeichnet und projektiert werden: Das was ist, was noch nicht ist und was niemals sein kann.

Mit der artifiziellen Flächigkeit ist ein Medium und Mittler entstanden, situiert zwischen der Eindimensionalität der Zeit und der Dreidimensionalität des Raumes. So kann zeitliche Sequenzialität in räumliche Simultaneität und vice versa übersetzt werden. In der Zusammenarbeit von Auge, Hand, Schriftsystem und Trägermaterie entsteht eine intersubjektiv zugängliche  Werkstätte von Komputation, Komposition, Kognition und Kommunikation. Wir denken nicht nur auf dem Papier; wir denken mit dem Papier. Dass ideographische Dimensionen der Textur (Überschriften, Fußnoten, Satzzeichen, Inhaltsverzeichnisse…) mitschreiben an Gedanken, die durch Texte artikuliert werden, ist hinreichend untersucht. Doch alphabetische Schriften erschöpfen sich nicht  im Ausarbeiten sprachlich artikulierter Gedanken. Dies sei in drei ganz unterschiedlichen Hinsichten angedeutet:

(i) Genese der Grammatik: Mündliches Kommunizieren ist ein Prozess, der nicht nur verbal ist, sondern Gestik, Mimik, Prosodie und Deixis  einschließt. Erst mit der schriftlichen Kristallisation des Kommunizierbaren und Denkbaren zum Text (historisch im antiken Griechenland durch das Fehlen einer Buchreligion ermöglicht) wird Sprache als verbale Entität herausgelöst aus den anderen Schichten der Kommunikation und zum autarken,  beobachtbaren und analysierbaren Objekt. Die alphabetische Schrift wird zum Geburtsraum der Idee von ‚der Sprache‘ als linguistischer Entität. Die Textur des Alphabetischen zeichnet Sprache nicht einfach auf, sondern ist deren Kartographie. Die ‚Grammatik‘ als implizite, unbewusste Strukturalität im (muttersprachlichen) Sprechen wird erst mit der Verschriftung zum expliziten, also lehr- und lernbaren  Regelwerk.

(ii) Ordnungsregister:  Der Siegeszug des Alphabets verdankt sich auch dem Umstand ein Ordnungsregister zu stiften. So können große Textmengen (denken wir an Telefonbücher und Wörterbücher) inhaltsunabhängig so sortiert werden, dass Nutzer sich in Textmengen orientieren und diese für ihre Zwecke gebrauchen können.

(iii) Algebra: Die Algebra beruht darauf, dass Lösungsstrukturen für arithmetische Probleme durch den Einsatz von Buchstabennotationen allgemeingültig notiert und damit lehr- und lernbar werden. Descartes hat das Koordinatensystem erstmals eingesetzt und damit geometrische Punkte so in Zahlenpaare verwandelt, dass Kurven als Gleichungen angeschrieben und berechnet werden können. Das Koordinatensystem, das als Achsenkreuz die Fläche des Papiers in vier streng definierte Quadranten verwandelt kreiert einen Zahlenraum, in dem neue Arten von Zahlen, nämlich die Null und die negativen Zahlen, einen beobachtbaren und handhabbaren Ort bekommen.

Welche Rolle der Anordnungscharakter von Texturen, der sich in visuellen und also beobachtbaren Mustern verdichtet, in heuristischen Methoden spielt,  möchte ich nun an einem numerischen und hermeneutischen Beispiel erörtern.

4.

Der neunjährige Schüler und spätere  Mathematiker Karl Friedrich Gauß bekommt in der Schule die Aufgabe die Summe der ersten 100 Zahlen zu bilden und löst das Problem – im Unterschied zu allen seinen Mitschülern – in Minutenschnelle. Bei der Lösung macht er sich die Verschriftlichung des Zahlenrechnens zu Nutze.

  • 1+2+3+4+5+….+97+98+99+100;

Dies wird jetzt durch Vertauschung der Plätze und durch Zusammenfassung von Summanden umgeordnet in:

  • (1+100) + (2+99) + (3+98) +…..+ (49+52) +(50+51).

Jetzt ist eine optische Situation entstanden, die zeigt, dass die in jeder Klammer stehende Summe gleich ist.

  • (101) + (101) +….+ (101) + (101)

Da es 50 dieser Klammern gibt ist die Lösung:

  • 101 x 50 = 5050

Wir sehen den kognitiven Gewinn der Verschriftlichung der Arithmetik, die das arithmetische Problemelösen zu einem Mustererkennungsprozess macht.  Zahlen als theoretische Entitäten haben keine räumliche Position. Doch indem nicht mit Zahlen, sondern mit numerischen Zeichen hantiert wird, kann deren räumliche Positonierung auf der Fläche zu einem Werkzeug arithmetischer Arbeit werden. Die räumliche Anordnung der Zahlzeichen als lineare Reihe kann (gemäß dem Kommutativ- und Assoziativgesetz der Addition) umgeordnet und zu Gruppen zusammengefasst werden. Was auf dem Papier faktisch gemacht wird, ist die räumliche Verschiebung in der Position der Zahlzeichen; doch durch die spatiale Operation des Verrückens von Positionierungen wird eine visuelle Konfiguration produziert, die in einem Aha-Erlebnis, die Problemlösung unmittelbar ins Auge springen lässt. Eine komplexe geistige Leistung wird nicht mental, also ‚im Kopf‘ ausgeführt, sondern kann durch eine regelhafte Zeichenmanipulation extern auf dem Papier vollzogen werden.

5.

Ich komme nun zu einer in den Geisteswissenschaften wohlvertrauten Methode, welche die fortgeschrittene Variante einer hermeneutischen Methodik repräsentiert und über die Literaturwissenschaften und die Philosophie hinausgeht. Es ist die Methode des ‚close reading‘.  Mindestens vier Merkmale sind für dieses Lektüreverfahren signifikant:

  • Der Gegenstand ist ein einzelner Text unabhängig seiner externen literarisch-historisch- sozialen Kontexte. Ziel des ‚close reading‘ ist das Explizitmachen von Implikationen, die in der ‚gewöhnlichen‘ Lektüre zumeist unbemerkt bleiben. Das ‚Unbewusste‘ zwischen den Zeilen soll durch texturgenaue Beobachtung dessen, was geschrieben – und nicht geschrieben – wird, zutage gefördert werden.
  • Den Text zu rezipieren heißt nicht nur zu lesen, sondern am Textbild durch Unterstreichung und Kommentierung zu arbeiten, also in rudimentärer Form mit dem Text zu interagieren und an ihm Operationen zu vollziehen.
  • Auf der Textoberfläche, also dem Schriftbild, wird beim ‚close reading‘ nach Mustern und Korrelationen gesucht: Was sind die Schlüsselwörter, welche Wortzusammenstellungen kommen vor, welche rhetorischen Figuren tauchen auf, welche Wiederholungen sind charakteristisch, welche Gegensätze werden artikuliert, welche Inkonsistenzen und Widersprüche zeigen sich etc..
  • Anhand der diagnostizierten Muster werden dann interpretierend Fragen gestellt: Wie wird Sprache in dem Text verwendet und warum.

Mit diesen Merkmalen möchte ich die Voraussetzungen schaffen, die deutlich machen, dass der Frontmann der Digital Humanities, Franco Moretti, mit seiner Methode des ‚distant reading‘ zwar eine explizite  Opposition zu dem ‚close reading‘ aufruft.  Doch die mit seinen Verfahren verbundenen methodischen Innovationen, sind eben nicht nur als Bruch und Überwindung, sondern auch als radikale Fortbildung geisteswissenschaftlichen Analysetechniken zu verstehen.

6.

‚Distant Reading‘ ist der Titel einer jüngst erschienen Essaysammlung von Moretti.[2] Beginnen wir mit dem, was bei ihm radikal anders ist. Nicht der einzelne, aus seinem Kontext herausgelöste Text, sondern  im Idealfalle‘ alle Texte eines Genres innerhalb eines Zeitabschnittes werden mittels datenverarbeitenden Maschinen erfasst.  Während in der herkömmlichen Literaturwissenschaft 9/10 der geschriebenen Werke ignoriert werden zugunsten einiger weniger, die dann den literarischen Kanon bilden, setzt Moretti diesen Kanon außer Kraft und analysiert die gesamte Textproduktion einer eingegrenzten Epoche bezüglich einer spezifischen Gattung bzw. Form wie Brief-Novelle, Detektivroman, Fantacy etc. Schon damit ist klar: Dies  ist nur möglich, weil Bibliotheken digitalisiert und Suchmaschinen  vorhanden  sind, kurzum: weil auf gegebenem Stand der Informationstechnologie riesige Textvolumina bereits digitalisiert sind und dann als ‚Big Data‘ mit Hilfe der Methoden des Data-Mining bearbeitet werden können. ‚Big Data‘ bedeutet dabei, dass ein ‚Datenberg‘ zu groß und zu komplex ist, um von Menschen gesichtet und manuell bearbeitet zu werden. Bei Moretti lesen nicht Menschen, sondern Maschinen die Texte. Während bei Kanonbildung ‚Lesen‘ auf dem ‚Auslesen‘ beruht, wird in den Digital Humanities  ‚Lesen‘ zum  ‚Ablesen‘. Objekt der maschinellen Untersuchung ist nicht Literatur, sondern sind digitalisierte Datenmassen in Form von literarischen Genres, für das dann ein einzelner Text ‚nur‘ ein diese Form exemplifizierendes Individuum abgibt. So  kann Aufstieg und Niedergang einer literarischen Form anhand von Graphen so visualisiert werden, dass eine vergleichende Morphologie literarischer Formen möglich wird. Weil Big Data eine nicht durch Menschenkraft zu bearbeiten Datenanhäufung sind, bedarf es der Visualisierung  in den diagrammatischen Formen von Graphen, Tabellen, Bäumen und Karten, um die computergenerierte Korrelationen im ‚Menschenformat‘ darzustellen.

‚Kurven, Karten, Stammbäume‘ heißt das Werk, welches Morettis Methoden zum Durchbruch verhalf. Die graphische Textur von Tabellen, Karten, Diagrammen und Graphen, die für die empirischen Wissenschaften im alphanumerischen Zeichenraum immer schon konstitutiv war, ist für die Geisteswissenschaften erst mit der Digitalisierung der Textbestände möglich geworden.

Bei Moretti bilden diese visuellen Figuren, in denen sich die digitalisierten Erzeugnisse einer ganzen Epoche auskristallisieren, das unmittelbare Objekt der geisteswissenschaftlichen Interpretation. In eine Vogelflugperspektive gegenüber einer Totalität von Werken versetzt, werden Strukturen und Muster erkennbar und vergleichbar, die in der Konzentration auf einen einzelnen Text nicht zutage treten können. Literaturwissenschaft wird zur kartographischen Literaturanalyse. Um ein Beispiel zu geben: Ende des 19. Jahrhunderts wurden unzählige Detektivgeschichten in England geschrieben; doch nur Arthur Conan Doyles ‚Sherlock Holmes-Erzählungen‘ überlebten und sind heute noch bekannt. Woran liegt das? Morettis vergleichende Analyse aller Detektivgeschichten zeigt, dass es ein Alleinstellungsmerkmal gibt, welches Doyles Erzählung von den anderen unterscheidet. Dies ist die spezifische Rolle, welche Indizien in der Lösung des Kriminalfalls leisten. Damit aber stoßen wir auf eine merkwürdige Parallele zu einem Gelehrten, dessen mikrohistorische Methode eine Form des ‚close reading‘ praktiziert.

7.

Der italienische Historiker Carlo Ginzburg diagnostiziert die Entstehung einer neuen, einflussreichen Methodik in den Humanities Ende des 19. Jahrhunderts (1870-1880). In dieser Zeit entwickelt sich – so Ginzburg – eine Methodik des Spurenlesens, die sich um die Achse von Indizienbeweisen dreht. Das ‚Indizienparadigma‘ wird zur humanwissenschaftlichen Wissenstechnik. Der Kunsthistoriker Morelli, der Psychoanalytiker Freud und die literarische Figur des Sherlock Holmes führen das Spurenlesen als eine Methode ein, mit der durch die Analyse von unbeabsichtigten Details, eine in oder hinter dem Werk verborgene Realität zutage fördert wird. So können Kunstfälschungen aufgedeckt, Traumata zum Bewusstsein gebracht und Kriminalfälle gelöst werden. Ginzburg als Historiker wendet diese Methode an: er rekonstruiert den nicht zugänglichen Sachverhalts ‘stummen Wissens‘ der bäuerlichen Bevölkerung um 1600 anhand der Inquisitionsprotokolle.

Wenn Franco Moretti durch Makroanalyse die Indizienlösung als signifikantes Merkmal dechiffriert, das erklärt, warum die Detektivgeschichten mit Sherlock Holmes überlebten, so ist dies eine empirische Evidenz für Carlo Ginzburgs theoretische Annahme, es sei das Indizienwissen, was Sherlock Holmes auszeichne und zugleich Doyle mit Freud und Morelli als Indizienparadigma verbindet. Ginzburg musste sich verlassen auf die kanonische Auslese, ohne das Gesamt der Detektivgeschichten jener Zeit kennen zu können. Indem Moretti nicht den Vorgaben des Kanons folgt, hat er Ginzburgs Vertrauen in die Kanonisierung legitimiert und rational begründbar gemacht. Klassische historische Quellenanalyse nach Art des ‚close reading‘ (Ginzburg) und literaturwissenschaftliche Kanonbildung einerseits und das Data-Mining statistischer Literaturanalysen nach Art des ‚distant reading‘ großer Datenvolumina andererseits, schließen sich nicht aus, sondern ein: Ebenso, wie Theorie und Empirie substituieren sie sich nicht, sondern sind einander komplementär.

8.

Detektivisch infizierte Abschlussgedanken

Computergestützte forensische Ermittlungen bilden eine Erfolgsgeschichte der Computerisierung. Die digitale Forensik dechiffriert eine Wahrheit im Materialitätskontinuum der Welt, die der menschlichen Wahrnehmung verborgen, der maschinellen Rezeption jedoch zugänglich ist. Ein Implizites wird explizit gemacht. Dem entspricht das ‚Black-Box‘ Prinzip kybernetischer  Untersuchungsmethoden, die sich ausschließlich auf die Oberflächen des Sichtbaren konzentrieren. Unsichtbare, uns entzogene Realitäten sind nur durch Beobachtung und Analysen im Sichtbaren zu dechiffrieren. Diese Maxime verbindet das mikrologische ‚close reading‘, das makrologische ‚distant reading‘ mit der Kriminalistik und der detektivischen Geste. Jene transzendierende Bewegung, welche die sinnlich wahrnehmbare Oberfläche nur als Durchgangsstadium zu einem dahinterliegenden Sinn begreift, ist zu unterlaufen und zu durchkreuzen, um dann die Aufmerksamkeit – ob eigenhändig oder maschinengestützt – auf das zu richten, was auf der Oberfläche des Sichtbaren sich tatsächlich zeigt. Interpretation ist also nicht einfach ‚Konstruktion‘ und erst recht nicht beliebig, sondern muss ihre Anhaltspunkte in dem finden, was im Sichtbaren zutage tritt. So ist das Band des Explizitmachens eines Impliziten geeignet, die auseinanderstrebenden Methoden traditioneller und digitaler Geisteswissenschaften auf ihre Verwandtschaft aufmerksam zu machen.

 

[1] Die Rolle der DH in den nicht primär textbasierten Wissenschaften (Archäologie etc.) ist etwas anders zu beschreiben!

[2] Die folgenden (verkürzenden) Überlegungen werden Morettis Ansatz einer Analyse literarischer Formen  ohne ‚close reading‘ natürlich nicht gerecht.

Getagged mit: , ,
2 Kommentare zu “The Humanities going digital?
  1. Frieder Nake sagt:

    Ein schöner und anregender Aufsatz für mich, aus dem ich am kommenden Montag (31. Mai 16) in meinem Lektüre-Seminar „Die Namen der Blumen“ an der Hochschule für Künste, Bremen, eingangs ein wenig zitieren werde.

  2. Frieder Nake sagt:

    Vor kurzem in der edition suhrkamp erschienen:
    Felix Stalder, Kultur der Digitalität

    Vielleicht für manche von uns interessant in einem relativ breiten Blick auf Veränderungen der Gesellschaft und Teilhabe an kulturellen Produktion.

1 Pings/Trackbacks für "The Humanities going digital?"
  1. […] In Digitalität in den Geisteswissenschaften. DFG-geförderte Symposienreihe, Blog vom 24.05.2016 http://digitalitaet-geisteswissenschaften.de/the-humanities-going-digital […]

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*