Ersetzen Computer den Historiker? (Teil 1)

Plötzlich stehen auch die kreativen Berufe scheinbar zur Disposition. Sind jetzt auch die Historiker dran? Die Debatte darüber ist entbrannt. “Can computers replace historians?” fragt Rory Cellan-Jones in der BBC. Seine Antwort ist “Nein” – seine Frage aber Teil einer Debatte, die auch die Geschichtswissenschaft nicht unberührt lassen wird.

Der Computer ist für den Historiker ein nicht mehr wegzudenkendes Werkzeug. Geeignete Software ordnet Literatur und Archivmaterialen, mit Textverarbeitungsprogrammen werden wissenschaftliche Artikel und Monographien angefertigt und das Internet ist das Tor zu einer ungemeinen Fülle an Informationen. In einer klassischen Geschichtswissenschaft sind diese Tools vollkommen ausreichend, um eine qualitativ hochwertige Arbeit anzufertigen. Darüber hinaus gibt es aber noch ein weiteres Feld, in dem viele Historiker derzeit noch nicht bewandert sind: Es heißt Big Data.
Mit der Bedeutung von Big Data für den Historiker beschäftigt sich der Tech-Journalist Rory Cellan-Jones in einem kürzlichen erschienen BBC-Artikel. Ausgangspunkt war für ihn die Studie von Kalev Leetaru, einem Spezialisten für Big Data an der Georgetown University. In historischen Daten Muster zu erkennen, die dem menschlichen Auge verborgen bleiben, das ist der Traum von Leetaru. Die Software, die er dafür verwendet hat, ist durchaus interessant. Das Tool heißt Google Big Query und ist in der Lage, extrem große Mengen an Daten zu sammeln und aufzubereiten. Kalev Leetaru sichtete Daten bis zum Jahr 1979 und speiste sie in die Software ein. Für letzten 35 Jahre und für die Zukunft übernahm die Software GDLET die Arbeit, indem sie Daten aus verschiedenen Quellen sammelte und strukturierte – von Medienberichten über Wirtschaftsstatistiken bis hin zu Regierungserklärungen in über 100 Sprachen. Was Leentaru mit Hilfe der Software in den Daten sah, sind wiederkehrende Muster. So analysierte er die Ereignisse in der Ukraine, Ägypten und den Libanon und behauptet, Gemeinsamkeiten festzustellen. Ein gutes Beispiel hierfür ist eine Karte, auf der zwei Faktoren in ihrer zeitlichen und räumlichen Entwicklung dargestellt werden: Gewalt gegen die Zivilbevölkerung und Demonstrationen. Leetaru geht aber noch einen Schritt weiter. Er behauptet, den späteren Verlauf der Ereignisse mit den zuvor gewonnen Daten bestimmen zu können, wie er in sinem Blog darlegt. So braucht es nur extrem viele Daten, etwas Statistik und einen guten Algorithmus und schon können wir Weltgeschehnisse besser einschätzen. In nur 2,5 Minuten, so heißt es, wäre es möglich, eine ganze Liste von Perioden in der “World History” der letzten 35 Jahre darzustellen, die Ähnlichkeiten zu den zentralen Monaten der Revolution in Ägypten aufweisen. Der Rest sind Korrelationen. Für die Auswertung braucht es mehr als nur Anfängerwissen in Statistik.

Was bedeutet diese Entwicklung für Historiker? Natürlich werden wir nicht ersetzt. Es werden aber unsere bisherigen Methoden und Herangehensweisen in Frage gestellt. Besonders interessant ist dies vor allem für Zeithistoriker und Historiker der “World History”. Hier werden in den letzten Jahrzehnten eine Unmenge von Daten gesammelt, die digital zur Verfügung stehen. Es sind Tools notwendig, um eine erste Selektion vorzunehmen. Algorithmen können dabei ein Hilfsmittel sein, um Trends zu erkennen, ohne die qualitatative Analyse der Quellen aufzugeben. Auch große Datenmengen müssen im Vorfeld systematisiert werden, ebenso wie das Ergebnis der Software einer historischen Deutung bedarf. Das ist und bleibt die Aufgabe gut ausgebildeter HistorikerInnen und kann durch keinen Computer ersetzt werden. Voraussagen für die Zukunft überlassen wir aber vielleicht besser der Software.

Die dahinterliegende Debatte, ob die Maschine den Menschen eines Tages ersetzen werde, reicht hingegen weiter zurück. Im zweiten Teil, der in wenigen Tagen folgt, wird diese Debatte eingeordnet in die längeren Linien der Computerisierung und der Debatte um künstliche Intelligenz.

Autoren: Janine Noack, Martin Schmitt
Bildquelle: Screenshot des GDELT Global Conflict Boards

Ein Handlocher der Firma LAMPERTZ, der "PDA der 1950er-Jahre"

Vintage Computing Festival Berlin

Lochkarten lochen, Computerspiele spielen und Assemblercode coden. Beim Vintage Computing Festival VCFB, das vom 3. – 5. Oktober im Berliner Pergamon-Palais stattfand, konnte man am Wochenende in die Zeit eintauchen, als Computer noch verstanden und nicht nur bedient werden wollten. Die Veranstalter, der Verein afra und der Lehrstuhl für Medientheorie der HU Berlin, hatte ein umfangreiches Programm zusammengestellt, dass von Vorträgen über Bastel- und Lötecke bis hin zu einer Führung durch die Medientechnische Sammlung der HU reichte. Sie boten den interessierten Besuchern, vom Studenten, Zeitzeugen über jungen Familien bis hin zu dem Computerexperten, einen Überblick über die zahlreichen Verwendungsweisen alter Rechenanlagen, Computer und Modems.

Ein Handlocher der Firma LAMPERTZ, der „PDA der 1950er-Jahre.“ Foto: Martin Schmitt

„Die Zeit der Lochkarten war eine Zeit der Datensparsamkeit“, so Hans Franke, Initiator des des Vintage Computing Festivals. Ursprünglich Energiananlagenelektroniker, sattelte er früh auf das Programmieren um. In diesem Jahr führte er einen LAMPERTZ Handlocher vor, den „PDA der 1950er-Jahre“, so Franke, auf der ein Manager die Lochungen seiner Mitarbeiter kontrollieren und korrigieren konnte. Auf dem VCF konnten die Besucher mit ihm auf eigene Lochkarten lochen, was ihnen gerade einfiel. Die meisten gingen freudestrahlend mit einer Lochkarte nach Hause, auf der ihr Name codiert war. Die Daten eines Münchner Bürgers, erklärte Franke beispielsweise, mussten auf ein bis zwei Lochkarten passen, sodass nur die notwendigsten Daten erhoben wurden. Für mehr war schlicht kein Platz.

Datensparsamkeit gilt zwar heute noch immer als gute Programmierkunst. In Zeiten von Big Data und dem immer stärkeren Wunsch ubiquitärer Speicherbarkeit wird dies allerdings nur zu oft ignoriert. Welche Tücken die Technik bot, konnten Menschen berichten, deren neuer Doppelname nach der Hochzeit schlicht zu lang für die Verwaltung mit dem Computer war. Es ist ein gutes Beispiel für die Vorgaben, die einerseits aus den Limitationen der Technologie, aber andererseits auch aus der menschlichen Interpretation dieser Begrenzungen heraus resultieren. Auf größerer Ebene gaben diese Einschränkungen beispielsweise vor, was von einem Verdächtigen in den 1970er-Jahren gespeichert wurde, welche Daten für die Ermittlung der Rente erfasst oder welche Vorgänge der Kunde wie an einem Geldautomaten ausführen konnte.

Die Projektmitarbeiter Julia Erdogan und Thomas Kasper sitzen an einem Revival des BTX-Systems, eines frühen Informationsnetzwerkes der Deutschen Post.

Die Projektmitarbeiter Julia Erdogan und Thomas Kasper sitzen an einem Revival des BTX-Systems, eines frühen Informationsnetzwerkes der Deutschen Post. Foto: Frank Bösch

Darüber hinaus gab es zahlreiche alte Technik in Aktion zu erleben. Dies reichte von einer PDP11 aus dem Jahr 1970, die wir selbst programmieren durften und zum Abspielen einer Leuchtreihenfolge brachten. Vorgestellt wurde  sie von Thomas Höffken und Jörg Hoppe, Mitglieder des Computer Cabinet Göttingen. Die PDP11 war eine der leistungsstärksten und flexibelsten Rechner seiner Zeit. Besonders unter Wissenschaftler war er weit begehrter als die respektiven IBM-Geräte. Eingesetzt wurde sie vor allem als Steuerrechner – auch im Ostblock, wo es zahlreiche Nachbauten gab. Die Recheneinheit der PDP war derartig flexible, dass sie bis weit in die 1990er-Jahre noch in Taschenrechnern eingesetzt wurde. Begeisterung bei den Projektmitarbeitern löste auch eine Implementierung des BTX-Systems der Deutschen Post aus den 1980er-Jahren aus, mit der einige der alten Seiten aufgerufen werden konnte. Unter anderem war die BTX-Webseite des Chaos Computer Clubs abrufbar und gab so einen wertvollen Einblick in die Selbstpräsentation organisierter Hacker.

Von: Martin Schmitt und Julia Erdogan