Donnerstag, 26. November 2015

Zurück auf Anfang

Computer sind heute allgegenwärtig und für die meisten von uns sehr selbstverständlich. Dass das nicht immer so war, ist ziemlich klar. Irgendwann musste so etwas ja auch mal erfunden und entwickelt werden. Und wie und warum Computer funktionieren ist für viele Nutzer und Anwender eher unbekannt.

In seinem Buch „Turings Kathedrale“ erzählt George Dyson recht anschaulich die Entwicklung des ENIAC und der daran beteiligten Menschen, unter Federführung des genialen John von Neumann. Diese Geschichte findet statt am Institute for Advanced Study in Princeton [1] in den fünfziger Jahren des 20. Jahrhunderts.
Es ging ganz allgemein darum, Berechnungen von Zahlen, Gleichungssystemen und Polynomen automatisch durchführen zu können. Die wissenschaftliche Forschung hatte immens viel zu berechnen und die leidige Rechenarbeit stahl jedem Wissenschaftler wertvolle Zeit für das eigentliche Tun.
Leider waren es auch hier wieder einmal militärische Interessen, die den Fortgang des Geschehens mit den Mitteln betreiben konnte,  die offenbar nur aggressiven Vorhaben zur Verfügung stehen. Es ging um nichts weniger als um die Entwicklung der Wasserstoffbombe. Jeder, der für seine eigene Forschung Rechenzeit beanspruchen wollte, musste sich diese immer wieder erstreiten.
Mit seinen Kathodenstrahlröhren als Arbeitsspeicher sah der ENIAC eher nach einem Motor als nach einem Computer aus; jedoch er funktionierte und tat beschwerdelos das, was von ihm erwartet wurde.

Der erste „richtige“ Computer war der ENIAC allerdings nicht. Während des 2. Weltkriegs sah sich Großbritannien der Aufgabe gegenüber gestellt, den Code der Chiffrier-Maschine Enigma der deutschen Wehrmacht zu entschlüsseln. Das geschah recht erfolgreich in Bletchley Park [2] mit einer vierstelligen Anzahl von Beteiligten. Der wohl bekannteste und herausragendste von ihnen war der Mathematiker Alan Turing. Da die britischen Regierungen noch bis 1973 dieses Projekt unter strenger Geheimhaltung legten, wusste bis dato von den dort entwickelten und erfolgreich verwendeten Computern niemand irgendetwas. Für mich mutet das tragisch an: Menschen, die großartige Leistungen erbringen und aus Staatsräson nicht davon berichten dürfen.

Und nun zurück zur Eingangs aufgestellten Bemerkung, dass kaum jemand versteht, wie Computer prinzipiell überhaupt funktionieren können.
Als ich „Turings Kathedrale“ las, kam in mir die Erinnerung an den WDR-Papiercomputer oder auch Know-How Computer [3] auf, der zu Beginn der 80er-Jahre des letzten Jahrhunderts von Wolfgang Back und Ulrich Rohde konzipiert wurde. Mit einem Stift, einem Blatt Papier, Streichhölzern und 5 Befehlen lassen sich die grundlegenden Vorgänge in einem Computer / elektronische Schaltung nachbilden.




Im Rahmen meines „Studiums“ sah ich es als Herausforderung an, diesen „Computer“ in Software abzubilden. In C# habe ich dazu ein Programm geschrieben, das von Interessierten auch gerne verwendet werden darf [3]. Wer keine Angst hat, eine exe-Datei herunter zu laden, kann mit dem 8 Bit Rechner, wie ich ihn nenne, selber eigene Programme schreiben.
Prinzipiell lassen sich damit alle Berechnungen durchführen. Die Addition von 2 Zahlen könnte z.B. so aussehen (wenn die zu addierenden Zahlen in den Registern 1 und 2 stehen und das Ergebnis in Register 0 angezeigt werden soll):

0 n1
1 g3
2 g6
3 d1
4 i0
5 g0
6 n2
7 g9
8 e 00
9 d2
10 i0
11 g6

Im Programm selber gibt es eine Anleitung.

Eine elektronische Umsetzung dazu ist „relativ einfach“. Mit einer Handvoll Transistoren und ICs (integrierte Schaltkreise) ist die boolesche Algebra recht gut in den Griff zu bekommen, wie ja auch Millionen von mittlerweile alltäglichen Geräten (neben dem Computer) uns immer wieder vor Augen führen.

Das vorerwähnte Additionsprogramm ließe sich auch zu einem einzigen Befehl wie z.B. „add“ zusammenfassen und das ist es, was unsere heutigen Computer ausmachen. Ganz grundlegende Aufgaben werden in höhere Einheiten zusammengefasst und diese wiederum in übergeordnete Einheiten und so fort.

Bin ich nun wirklich auf Anfang? Eher nein. Grundsätzliche Überlegungen zu automatisierten Berechnungen gibt es bereits seit Jahrhunderten. Erwähnen möchte ich hier nur beispielhaft Charles Babagge oder den unvergleichlichen Gottfried Wilhelm Leibniz.








Keine Kommentare:

Kommentar veröffentlichen