Der Computer als Gehirn eines Nagetiers

Von Anfang an übte das Gehirn eine große Faszination auf die aufstrebenden Computerwissenschaftler aus. Die meisten von ihnen kamen aus der Mathematik und der Nachrichtentechnik, aber auch Psychologen wie J.C.R. Licklider widmeten sich begeistert der neuen Technologie. Die Kybernetik bot ihnen dabei eine gemeinsame Sprache, innerhalb der das Gehirn wie der Computer Systeme waren, die mit den gleichen Mechanismen der Informationstheorie begriffen werden konnten. Die Kybernetiker erster Generation versuchten, vereinfacht gesagt, das Gehirn mit technischen Mitteln nachzubauen, denn System ist System. Ihnen folgten die Kybernetiker zweiter Generation, die sich hauptsächlich der künstlichen Intelligenz widmeten. Hier war das Ziel nicht mehr, das physische Gehirn nachzubilden, wie der Wissenschaftsjournalist Mitchell Waldrop in seiner Biografie zu Licklider verdeutlicht. Ziel war es, den Geist („mind“) in Software und Logik zu imitieren.

Diese folgenschwere Verkettung, auch Computational Metaphor genannt, zieht sich bis in die heutige Zeit durch. Beispiele dafür poppen immer wieder auf, diesmal ist es IBM, die das Gehirn „fast“ nachgebildet haben. Zumindest das eines kleinen Nagetiers. Die können ja auch schon ganz schön clever sein. „The chips on the inside are designed to behave like neurons—the basic building blocks of biological brains“, gibt der Chefdesigner des Projekts Dharmendra Modha den staunenden Journalisten der amerikanischen Techszene Magazins WIRED in ihrem neusten Artikel „IBM’s ‘Rodent Brain’ Chip Could Make Our Phones Hyper-Smart“ zu Protokoll. Modha weiter: „the system in front of us spans 48 million of these artificial nerve cells, roughly the number of neurons packed into the head of a rodent“.

Bionische Mimikri nennt man das in der Fachsprache und war lange Zeit das Vorbild für ganze Computeringenieurskohorten mit der immer wieder nachfolgenden Enttäuschung angesichts der überraschenden Komplexität und Kontingenz neurologischer Denkvorgänge. Mit an Bord war jederzeit die Künstliche Intelligenzforschung mit dem Versprechen, intelligente Software beispielsweise zur Spracherkennung auf cleveren Geräten zu schreiben. So auch bei den Teilnehmern, die einen exklusiven Blick auf das digitale Nagergehirn bekamen: „Some researchers who got their hands on the chip at an engineering workshop in Colorado the previous month have already fashioned software that can identify images, recognize spoken words, and understand natural language.“ Wenn nun die Chips der IBM den auf neuronalen Netzwerken basierenden Algorithmen der Startupgründer und Wissenschaftler die perfekte Basis bieten, treffen zwei Forschungsansätze aufeinander, die beide von der Reproduzierbarkeit des Denkens ausgehen. Oder in den begeisterten Worten Jason Mars, einem Informatikprofessor der University of Michigan:

„These algorithms mimic neural networks in much the same way IBM’s chips do, recreating the neurons and synapses in the brain. One maps well onto the other.“

Einzureihen sind solche Versuche mit dem Ansatz des Technikhistorikers Thomas Haigh in die Reihe der utopisch aufgeladenen (oder gut verkauften?) Informationstechnologien, deren praktischer Nutzen unbestreitbar war, die aber die hohen Erwartungen angesichts technischer Begrenztheit niemals einlösen konnten. Schon in den 1990er-Jahren scheiterten die Wissenschaftler daran, neuronale Netzwerke auf die Computertechnologie zu mappen und erfuhren dabei ihre Grenzen. Produkte aus dieser Forschungslinie erleichtern und heute in Form von Siri oder Googles Spracherkennung den Alltag. Denken können sie noch lange nicht. Das gibt auch Modha letztlich zu. War es ursprünglich das Ziel seines DARPA-Forschungsauftrag von 53 Millionen US-Dollar, das Gehirn zu imitieren. Aber ein 1:1-Nachbau sei gar nicht möglich, wie auch nicht notwendig, wurde Modha im Laufe des Forschungsprojektes. Er möchte dem nur möglichst nahe kommen. Letztlich seien es doch die Menschen, welche die Welt verändern, nicht die Computer.

 

 

Bild: IBM.
Text: Der Computer als Gehirn eines Nagetiers von Martin Schmitt ist lizenziert unter einer Creative Commons Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International Lizenz.

Creative Commons Lizenzvertrag

Quellen:
Cade Metz: IBM’s ‘Rodent Brain’ Chip Could Make Our Phones Hyper-Smart. In: WIRED online, 17.08.2015. URL: http://www.wired.com/2015/08/ibms-rodent-brain-chip-make-phones-hyper-smart [zuletzt abgerufen am 17.8.2015]
Haigh, Thomas (2007): A Veritable Bucket of Facts‹: Ursprünge des Datenbankmanagementsystems, in: Gugerli, David et. al. (Hgg.) (2007): Daten (=Nach Feierabend: Zürcher Jahrbuch für Wissensgeschichte 3), Zürich, S. 57–98.
Waldrop, M. Mitchell (2001): The dream machine: J. C. R. Licklider and the revolution that made computing personal, New York.

Posted in Allgemein and tagged , , .

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.