Mann vor Computer im Rechenzentrum einer Sparkasse

Ein Digitales Zeitalter? Über Digitalität, historische Periodisierung und den 1.1.1970

In der letzten Dekade kam ein frischer Wind in die zeithistorische Periodisierungsdebatte. Während sich die historische Zunft noch auf kein Enddatum eines 20. Jahrhunderts einigen konnte, beispielsweise auf ein „kurzes 20. Jahrhundert“ mit dem Ende des Ostblocks 1989-1991, fordern zwei Zäsuren das Jahrhundertdenken an sich heraus: Das Anthropozän (um 1950) und der Strukturbruch (um 1970). Beim Anthropozän wird argumentiert, dass sich eine neue erdgeschichtliche Epoche mit dem Menschen als dominantem Faktor ausmachen lässt, der gleichzeitig den negativen Konsequenzen seines eigenen Handelns unterworfen ist (Trischler/Will 2019). Auch naturwissenschaftliche Beiträge treiben die Diskussion an. In der Debatte um den Strukturbruch argumentierten Anselm Doering-Manteuffel und Lutz Raphael (2008, 2014), dass sich Anfang der 1970er-Jahre in den westlichen Industriestaaten ökonomische, soziale und politische Entwicklungen bündelten, was zum Ende der Ordnung des Nachkriegsbooms führte. Seitdem wurde ihr Befund vielfach problematisiert und differenziert. In der gesamten nachfolgenden Debatte ging dabei zumeist unter, dass beide Zäsuren fundamental mit informationstechnologischem Wandel in Verbindung standen. Diesem Wandel habe ich in meinem Vortrag an der HU Berlin im Forschungskolloquium Digital History nachgespürt und dabei Ergebnisse unsere Projektes und meiner Dissertation vorgestellt. Mein Kernargument ist, dass sich in der Zeit um 1970 zahlreiche digitalhistorische Entwicklungslinien verdichteten, sodass sich fortan von einem „Digitalen Zeitalter“ sprechen lässt.

Zum Abstract und zur Aufzeichnung des Vortrags „Ein Digitales Zeitalter?“ an der HU-Berlin, Forschungskolloquium der Professur für Digital History

Bildrechte: Deutscher Sparkassen- und Giroverband (DSGV), 1963

Podcast-Beitrag zu den Hackern der Bundesrepublik und DDR

Die digitalen Medien sind nicht nur Forschungsgegenstand, sondern dienen auch immer mehr der Wissensvermittlung. Mittlerweile sind einige sehr gute Formate entstanden, die sich mit historischen Themen befassen. Eines davon ist der Podcast „Anno…“, den Philipp Janssen betreibt. In seinem Podcast erzählen WissenschaftlerInnen von ihren Forschungsprojekten und geben so Einblick in aktuelle Themen und Debatten sowie die Arbeit der HistorikerInnen. In Folge 28 stellt Julia Erdogan ihr Dissertationsthema zu den Hackerkulturen beider Teilstaaten vor. Die Folge gibt einen kurzen Einblick in die frühe private Computernutzung und das Aufkommen von Hackern in den 1980er-Jahren.
Das etwa 80 Minuten lange Gespräch gibt es hier zu hören

Ersetzen Computer den Historiker? (Teil 1)

Plötzlich stehen auch die kreativen Berufe scheinbar zur Disposition. Sind jetzt auch die Historiker dran? Die Debatte darüber ist entbrannt. “Can computers replace historians?” fragt Rory Cellan-Jones in der BBC. Seine Antwort ist “Nein” – seine Frage aber Teil einer Debatte, die auch die Geschichtswissenschaft nicht unberührt lassen wird.

Der Computer ist für den Historiker ein nicht mehr wegzudenkendes Werkzeug. Geeignete Software ordnet Literatur und Archivmaterialen, mit Textverarbeitungsprogrammen werden wissenschaftliche Artikel und Monographien angefertigt und das Internet ist das Tor zu einer ungemeinen Fülle an Informationen. In einer klassischen Geschichtswissenschaft sind diese Tools vollkommen ausreichend, um eine qualitativ hochwertige Arbeit anzufertigen. Darüber hinaus gibt es aber noch ein weiteres Feld, in dem viele Historiker derzeit noch nicht bewandert sind: Es heißt Big Data.
Mit der Bedeutung von Big Data für den Historiker beschäftigt sich der Tech-Journalist Rory Cellan-Jones in einem kürzlichen erschienen BBC-Artikel. Ausgangspunkt war für ihn die Studie von Kalev Leetaru, einem Spezialisten für Big Data an der Georgetown University. In historischen Daten Muster zu erkennen, die dem menschlichen Auge verborgen bleiben, das ist der Traum von Leetaru. Die Software, die er dafür verwendet hat, ist durchaus interessant. Das Tool heißt Google Big Query und ist in der Lage, extrem große Mengen an Daten zu sammeln und aufzubereiten. Kalev Leetaru sichtete Daten bis zum Jahr 1979 und speiste sie in die Software ein. Für letzten 35 Jahre und für die Zukunft übernahm die Software GDLET die Arbeit, indem sie Daten aus verschiedenen Quellen sammelte und strukturierte – von Medienberichten über Wirtschaftsstatistiken bis hin zu Regierungserklärungen in über 100 Sprachen. Was Leentaru mit Hilfe der Software in den Daten sah, sind wiederkehrende Muster. So analysierte er die Ereignisse in der Ukraine, Ägypten und den Libanon und behauptet, Gemeinsamkeiten festzustellen. Ein gutes Beispiel hierfür ist eine Karte, auf der zwei Faktoren in ihrer zeitlichen und räumlichen Entwicklung dargestellt werden: Gewalt gegen die Zivilbevölkerung und Demonstrationen. Leetaru geht aber noch einen Schritt weiter. Er behauptet, den späteren Verlauf der Ereignisse mit den zuvor gewonnen Daten bestimmen zu können, wie er in sinem Blog darlegt. So braucht es nur extrem viele Daten, etwas Statistik und einen guten Algorithmus und schon können wir Weltgeschehnisse besser einschätzen. In nur 2,5 Minuten, so heißt es, wäre es möglich, eine ganze Liste von Perioden in der “World History” der letzten 35 Jahre darzustellen, die Ähnlichkeiten zu den zentralen Monaten der Revolution in Ägypten aufweisen. Der Rest sind Korrelationen. Für die Auswertung braucht es mehr als nur Anfängerwissen in Statistik.

Was bedeutet diese Entwicklung für Historiker? Natürlich werden wir nicht ersetzt. Es werden aber unsere bisherigen Methoden und Herangehensweisen in Frage gestellt. Besonders interessant ist dies vor allem für Zeithistoriker und Historiker der “World History”. Hier werden in den letzten Jahrzehnten eine Unmenge von Daten gesammelt, die digital zur Verfügung stehen. Es sind Tools notwendig, um eine erste Selektion vorzunehmen. Algorithmen können dabei ein Hilfsmittel sein, um Trends zu erkennen, ohne die qualitatative Analyse der Quellen aufzugeben. Auch große Datenmengen müssen im Vorfeld systematisiert werden, ebenso wie das Ergebnis der Software einer historischen Deutung bedarf. Das ist und bleibt die Aufgabe gut ausgebildeter HistorikerInnen und kann durch keinen Computer ersetzt werden. Voraussagen für die Zukunft überlassen wir aber vielleicht besser der Software.

Die dahinterliegende Debatte, ob die Maschine den Menschen eines Tages ersetzen werde, reicht hingegen weiter zurück. Im zweiten Teil, der in wenigen Tagen folgt, wird diese Debatte eingeordnet in die längeren Linien der Computerisierung und der Debatte um künstliche Intelligenz.

Autoren: Janine Noack, Martin Schmitt
Bildquelle: Screenshot des GDELT Global Conflict Boards