Computerisierung auf der Langen Nacht der Wissenschaften

Über Wissenschaft in der Öffentlichkeit und unser Forschungsprojekt bei der „klügsten Nacht des Jahres“ in Berlin. Von Martin Schmitt

Auf der Langen Nacht der Wissenschaften, die am Sonntag dem 13. Juni in Berlin und Potsdam stattfand, stellte unsere Projektmitarbeiterin Julia Erdogan der interessierten Öffentlichkeit unser Gesamtprojekt und ihr Teilprojekt zu den Hackern in Deutschland vor. Im historischen Gebäude des Naturkundemuseums, in dem sich die Institute der Leibniz Gemeinschaft präsentierten, verdeutlichte sie die historische Entwicklung von Hackern und deren öffentlicher Wahrnehmung zwischen Watchgroup und krimineller Bedrohung. Es gelang den Hackern in Deutschland seit den 1980er-Jahren durch zahlreiche öffentlichkeitswirksame Aktionen nicht nur, auf die Sicherheitslücken der Computersysteme aufmerksam zu machen, sondern zugleich dazu beizutragen, die positive Schaffenskraft des Computers in einer demokratischeren Gesellschaft zu etablieren. Zerstörerische Elemente der Hackerhandlungen deutete Julia Erdogan mit Schumpeter als konstruktiver Erneuerungsfaktor und damit als kreatives Element. Hacker seien bis heute eine sehr heterogene Gruppe, welche die Lust am Handeln mit und durch den Computer charakterisiere.

Neben Fragen zur generellen Ausrichtung des Projektes identifizierten sich das Publikum stark mit der historischen Computerentwicklung und schwelgte in Erinnerung an die erste verschickte Mail und den ersten Computer. Aber auch kritischere Fragen bewegten die anwesenden Bürger und Bürgerinnen: Wie viele Hacker gab es denn überhaupt in Deutschland? Und wie war ihre Situation in der DDR? Gab es einen Linux-Zwang unter den Hackern, also folgten sie nicht selbst einer normierenden, standardisierenden Subkultur?

Julia Erdogan und mit ihr das Projekt zur Computerisierung in BRD und DDR erzeugten ein großes öffentliches Interesse und trugen zu einer gelungenen langen Nacht der Wissenschaften in Berlin bei, auf der sich die Wissenschaft in all ihren Facetten zeigte. Zu sehen waren computertechnologischen Neuerungen in den T-Labs der TU Berlin über die vielfältigen Erfahrungsangebote wissenschaftlicher Produkte wie in der Hochspannungshalle des Institutes für Energie- und Automatisierungstechnik oder den Berliner Bibliotheken bis hin zu Science Slams als locker aufbereitete Ergebnispräsentation.

Höhepunkte der Langen Nacht war dann neben dem Feuerwerk der gemeinsame Science Slam der TU Berlin, der UDK und der HDK im komplett vollen Audimax der TU-Berlin. Ihn gewann der spontan eingesprungene Tobias Hölzer mit einem humorigen Slam über die Zukunft des Computings. Er zeigte an Hand einer Dating-Situation zwischen Mann und Frau die Funktionsweisen moderner Quantencomputer. Aus Computerisierungs-Perspektive war daran vor allem die Annahme spannend, die gesamte soziale wie auch physische Welt als berechenbar anzusehen – wenn man nur den ausreichend leistungsfähigen Computer dazu hat. Die Forschung an den Quantencomputern stehe noch sehr am Anfang, betonte Hölzer. Aber die Entwicklungen seien rapide. Als Anwendungsgebiete sieht er vor allem Big-Data-Suchen, ausgefeilte Simulationen der Welt, bis hin zu unknackbarer Kryptografie, beispielsweise für Geheimdienste. Es ist spannend, was in den nächsten Jahren hier auf uns und die Gesellschaft zukommen.

Insgesamt besuchten fast 27.000 Besucher die Lange Nacht der Wissenschaften in Berlin. Sie bekamen einen Einblick in die Welt der Wissenschaften, der ihnen all zu häufig verschlossen bleibt und nahmen ein Stück der Begeisterung mit nach Hause, mit der vor allem die jungen Wissenschaftler mit leuchtenden Augen von ihren Projekten erzählten.

  • Science Slam
    Science Slam

Autor: Martin Schmitt
Bildrechte:

Creative Commons Lizenzvertrag
Dieses Werk von Martin Schmitt ist lizenziert unter einer Creative Commons Namensnennung – Nicht-kommerziell – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.

Die Verdatung der Welt

Forschung macht man nicht alleine. Vor allem nicht in einem so umfassenden Feld wie dem der Geschichte der Computerisierung. Das ist auch gut so, denn unser Projekt mit fünf Mann/Frau könnte die Fülle der Themen überhaupt nicht bearbeiten. Darum freuen wir uns immer wieder zu merken, wie viele spannende Projekte im Moment im Umfeld der Zeitgeschichte der Informationsgesellschaft entstehen. Und auch auf großen medialen Konferenzen wie der re:publica 2015 spielt die Geschichte der Computerisierung eine zentrale Rolle, enorm häufig wurde dort in den Beiträgen computerhistorisch argumentiert oder war die Geschichte des Digitalen Zeitalters selbst Gegenstand.

 

Aus diesem Grund soll in unserem Projektblog unter der Kategorie „Literaturhinweis“ auch immer wieder auf spannende Projekte und Publikationen verwiesen werden, die an anderen Instituten und Universitäten entstehen. Ein Anfang macht die Dissertation von Julia Fleischhack, „Eine Welt im Datenrausch: Computeranlagen und Datenmengen als gesellschaftliche Herausforderung in der Bundesrepublik Deutschland, 1965-1975“, die 2012 an der Universität Zürich abgeschlossen wurde und die Ende Juni 2015 erscheinen soll. Hier ein Auszug aus der Projektbeschreibung. In ihrer Dissertation verfolgte Frau Fleischhack

„… in erster Linie die Frage, wie der gesellschaftliche Umgang mit Daten zu einem zentralen Konfliktfeld des späten 20. Jahrhunderts wurde. Im Fokus stand mit den 1960er und 1970er Jahren die Frühphase der ›Computerisierung‹ in der Bundesrepublik Deutschland: Untersucht wurden u.a. neben der Entstehung(sgeschichte) der ersten Rechenzentren und den großangelegten Vernetzungsplänen und -visionen zum Datenaustausch in der öffentlichen Verwaltung auch die Ausweitung des Datenhandels und speziell der Datenerfassung von Personen im kommerziellen Bereich.“ (UZH, zuletzt abgerufen am 10.05.2015)

Autor: Martin Schmitt

Bildrechte: Charis Tsevis, under CC 2.0 

Ersetzen Computer den Historiker? (Teil 1)

Plötzlich stehen auch die kreativen Berufe scheinbar zur Disposition. Sind jetzt auch die Historiker dran? Die Debatte darüber ist entbrannt. “Can computers replace historians?” fragt Rory Cellan-Jones in der BBC. Seine Antwort ist “Nein” – seine Frage aber Teil einer Debatte, die auch die Geschichtswissenschaft nicht unberührt lassen wird.

Der Computer ist für den Historiker ein nicht mehr wegzudenkendes Werkzeug. Geeignete Software ordnet Literatur und Archivmaterialen, mit Textverarbeitungsprogrammen werden wissenschaftliche Artikel und Monographien angefertigt und das Internet ist das Tor zu einer ungemeinen Fülle an Informationen. In einer klassischen Geschichtswissenschaft sind diese Tools vollkommen ausreichend, um eine qualitativ hochwertige Arbeit anzufertigen. Darüber hinaus gibt es aber noch ein weiteres Feld, in dem viele Historiker derzeit noch nicht bewandert sind: Es heißt Big Data.
Mit der Bedeutung von Big Data für den Historiker beschäftigt sich der Tech-Journalist Rory Cellan-Jones in einem kürzlichen erschienen BBC-Artikel. Ausgangspunkt war für ihn die Studie von Kalev Leetaru, einem Spezialisten für Big Data an der Georgetown University. In historischen Daten Muster zu erkennen, die dem menschlichen Auge verborgen bleiben, das ist der Traum von Leetaru. Die Software, die er dafür verwendet hat, ist durchaus interessant. Das Tool heißt Google Big Query und ist in der Lage, extrem große Mengen an Daten zu sammeln und aufzubereiten. Kalev Leetaru sichtete Daten bis zum Jahr 1979 und speiste sie in die Software ein. Für letzten 35 Jahre und für die Zukunft übernahm die Software GDLET die Arbeit, indem sie Daten aus verschiedenen Quellen sammelte und strukturierte – von Medienberichten über Wirtschaftsstatistiken bis hin zu Regierungserklärungen in über 100 Sprachen. Was Leentaru mit Hilfe der Software in den Daten sah, sind wiederkehrende Muster. So analysierte er die Ereignisse in der Ukraine, Ägypten und den Libanon und behauptet, Gemeinsamkeiten festzustellen. Ein gutes Beispiel hierfür ist eine Karte, auf der zwei Faktoren in ihrer zeitlichen und räumlichen Entwicklung dargestellt werden: Gewalt gegen die Zivilbevölkerung und Demonstrationen. Leetaru geht aber noch einen Schritt weiter. Er behauptet, den späteren Verlauf der Ereignisse mit den zuvor gewonnen Daten bestimmen zu können, wie er in sinem Blog darlegt. So braucht es nur extrem viele Daten, etwas Statistik und einen guten Algorithmus und schon können wir Weltgeschehnisse besser einschätzen. In nur 2,5 Minuten, so heißt es, wäre es möglich, eine ganze Liste von Perioden in der “World History” der letzten 35 Jahre darzustellen, die Ähnlichkeiten zu den zentralen Monaten der Revolution in Ägypten aufweisen. Der Rest sind Korrelationen. Für die Auswertung braucht es mehr als nur Anfängerwissen in Statistik.

Was bedeutet diese Entwicklung für Historiker? Natürlich werden wir nicht ersetzt. Es werden aber unsere bisherigen Methoden und Herangehensweisen in Frage gestellt. Besonders interessant ist dies vor allem für Zeithistoriker und Historiker der “World History”. Hier werden in den letzten Jahrzehnten eine Unmenge von Daten gesammelt, die digital zur Verfügung stehen. Es sind Tools notwendig, um eine erste Selektion vorzunehmen. Algorithmen können dabei ein Hilfsmittel sein, um Trends zu erkennen, ohne die qualitatative Analyse der Quellen aufzugeben. Auch große Datenmengen müssen im Vorfeld systematisiert werden, ebenso wie das Ergebnis der Software einer historischen Deutung bedarf. Das ist und bleibt die Aufgabe gut ausgebildeter HistorikerInnen und kann durch keinen Computer ersetzt werden. Voraussagen für die Zukunft überlassen wir aber vielleicht besser der Software.

Die dahinterliegende Debatte, ob die Maschine den Menschen eines Tages ersetzen werde, reicht hingegen weiter zurück. Im zweiten Teil, der in wenigen Tagen folgt, wird diese Debatte eingeordnet in die längeren Linien der Computerisierung und der Debatte um künstliche Intelligenz.

Autoren: Janine Noack, Martin Schmitt
Bildquelle: Screenshot des GDELT Global Conflict Boards

Vintage Computing Festival Berlin

Lochkarten lochen, Computerspiele spielen und Assemblercode coden. Beim Vintage Computing Festival VCFB, das vom 3. – 5. Oktober im Berliner Pergamon-Palais stattfand, konnte man am Wochenende in die Zeit eintauchen, als Computer noch verstanden und nicht nur bedient werden wollten. Die Veranstalter, der Verein afra und der Lehrstuhl für Medientheorie der HU Berlin, hatte ein umfangreiches Programm zusammengestellt, dass von Vorträgen über Bastel- und Lötecke bis hin zu einer Führung durch die Medientechnische Sammlung der HU reichte. Sie boten den interessierten Besuchern, vom Studenten, Zeitzeugen über jungen Familien bis hin zu dem Computerexperten, einen Überblick über die zahlreichen Verwendungsweisen alter Rechenanlagen, Computer und Modems.

Ein Handlocher der Firma LAMPERTZ, der "PDA der 1950er-Jahre"

Ein Handlocher der Firma LAMPERTZ, der „PDA der 1950er-Jahre.“ Foto: Martin Schmitt

„Die Zeit der Lochkarten war eine Zeit der Datensparsamkeit“, so Hans Franke, Initiator des des Vintage Computing Festivals. Ursprünglich Energiananlagenelektroniker, sattelte er früh auf das Programmieren um. In diesem Jahr führte er einen LAMPERTZ Handlocher vor, den „PDA der 1950er-Jahre“, so Franke, auf der ein Manager die Lochungen seiner Mitarbeiter kontrollieren und korrigieren konnte. Auf dem VCF konnten die Besucher mit ihm auf eigene Lochkarten lochen, was ihnen gerade einfiel. Die meisten gingen freudestrahlend mit einer Lochkarte nach Hause, auf der ihr Name codiert war. Die Daten eines Münchner Bürgers, erklärte Franke beispielsweise, mussten auf ein bis zwei Lochkarten passen, sodass nur die notwendigsten Daten erhoben wurden. Für mehr war schlicht kein Platz.

Datensparsamkeit gilt zwar heute noch immer als gute Programmierkunst. In Zeiten von Big Data und dem immer stärkeren Wunsch ubiquitärer Speicherbarkeit wird dies allerdings nur zu oft ignoriert. Welche Tücken die Technik bot, konnten Menschen berichten, deren neuer Doppelname nach der Hochzeit schlicht zu lang für die Verwaltung mit dem Computer war. Es ist ein gutes Beispiel für die Vorgaben, die einerseits aus den Limitationen der Technologie, aber andererseits auch aus der menschlichen Interpretation dieser Begrenzungen heraus resultieren. Auf größerer Ebene gaben diese Einschränkungen beispielsweise vor, was von einem Verdächtigen in den 1970er-Jahren gespeichert wurde, welche Daten für die Ermittlung der Rente erfasst oder welche Vorgänge der Kunde wie an einem Geldautomaten ausführen konnte.

Die Projektmitarbeiter Julia Erdogan und Thomas Kasper sitzen an einem Revival des BTX-Systems, eines frühen Informationsnetzwerkes der Deutschen Post.

Die Projektmitarbeiter Julia Erdogan und Thomas Kasper sitzen an einem Revival des BTX-Systems, eines frühen Informationsnetzwerkes der Deutschen Post. Foto: Frank Bösch

Darüber hinaus gab es zahlreiche alte Technik in Aktion zu erleben. Dies reichte von einer PDP11 aus dem Jahr 1970, die wir selbst programmieren durften und zum Abspielen einer Leuchtreihenfolge brachten. Vorgestellt wurde  sie von Thomas Höffken und Jörg Hoppe, Mitglieder des Computer Cabinet Göttingen. Die PDP11 war eine der leistungsstärksten und flexibelsten Rechner seiner Zeit. Besonders unter Wissenschaftler war er weit begehrter als die respektiven IBM-Geräte. Eingesetzt wurde sie vor allem als Steuerrechner – auch im Ostblock, wo es zahlreiche Nachbauten gab. Die Recheneinheit der PDP war derartig flexible, dass sie bis weit in die 1990er-Jahre noch in Taschenrechnern eingesetzt wurde. Begeisterung bei den Projektmitarbeitern löste auch eine Implementierung des BTX-Systems der Deutschen Post aus den 1980er-Jahren aus, mit der einige der alten Seiten aufgerufen werden konnte. Unter anderem war die BTX-Webseite des Chaos Computer Clubs abrufbar und gab so einen wertvollen Einblick in die Selbstpräsentation organisierter Hacker.

Von: Martin Schmitt und Julia Erdogan