Geschichte der Informatik
Im Grunde ist der Anfang der Informatik die einfache
Entscheidung des Menschen, durch Maschinen das eigene
Gehirn entlasten zu können, darunter anspruchsvolle
Rechenvorgänge, Lösung von Problemstellungen und eine
damit verbundene Evolution der Technik einzuleiten und
zu bewerkstelligen.
Anfang des 17. Jahrhunderts kam der Traum von einer
Maschine auf, die selbstständig rechnen sollte.
Vorreiter wie Johannes Kepler (1571-1630) und der
Mathematiker Wilhelm Schickard (1592-1635) machten diese
Wunschvorstellung wahr, so erfand Schickard eine
Rechenuhr, die automatisch Zahlen verschob, um sie
zusammenzuzählen. Einige Jahre darauf folgte ihm der
bekannte Philosoph Blaise Pascal (1623-1662), der vom
leeren Raum des Alls überwältigt war und diesen
beständig zu ergründen suchte. Er nannte seine
Rechenmaschine „Pascaline“, die der Schwerkraft bedurfte
und damit im Grunde nicht besonders praktikabel war.
Ein anderer Philosoph, nämlich Gottfried Wilhelm Leibniz
(1646-1716), beschäftigte sich unabhängig von den
anderen in seinen Schriften ausführlich mit dem Gedanken
an eine „lebendige Maschine“, träumte von einem
Automaten, der selbstständig Zahlen zusammenzählen, aber
auch subtrahieren, multiplizieren und teilen konnte.
Leibniz schwebte sogar das selbstständige Errechnen der
Wurzel vor. Er teilte seinen Automaten in drei
Funktionen: die Eingabe der Zahlen, das Berechnen dieser
und die Anzeige des Ergebnisses. Dieses Prinzip des In-
und Outputs liegt auch heute noch jedem Computer
zugrunde. Für die Berechnung und Leistungsfunktion
bedarf es alleine zweier binärer Zahlen, der Eins und
der Null, um die mechanische Umsetzung jedweder Maschine
und später auch des Computers zu gewährleisten, denn in
der Laiensprache bedeuten beide Zahlen einfach AN und
AUS.
Bis ins 19. Jahrhundert wurden verschiedene
Rechenmaschinen erfunden. Ausgerechnet die Methode,
Webstühle so zu bauen, dass sie komplexe Muster weben
konnten, führte zur Erfindung einer Lochkarte, die
bahnbrechend in der Geschichte der Informatik war, denn
durch sie konnte jedes beliebige Muster gestaltet
werden. Statt Arbeit, übernahm nun die reine Information
die Aufgabe, etwas hervorzubringen und zu kontrollieren.
Dieses Lochkartenprinzip nahm sich der Mathematiker
Charles Babbage (1791-1871) vor und perfektionierte es.
Er erfand den „Differential Engine“, der schwierige
operative Vorgänge übernehmen und mühsame Berechnungen
erleichtern sollte. Seine Vorstellung reichte weiter zu
einer Maschine, die er „Analytical Engine“ nannte, die
im Grunde die Geburtsstunde des Computers bedeutete, da
sie sowohl mathematische Basisoperationen ausführen
konnte, eine Kontrolleinheit besaß, also programmiert
wurde, einen Speicher und dazugehörige Ein- und
Ausgabevorrichtungen. Mit Babbage und seiner Kollegin
und Assistentin Ada Lovelace (1815-1852) kam auch die
Idee auf, eine solche Maschine könnte irgendwann Musik
komponieren oder schwierige Grafiken anfertigen, wie es
bald darauf umgesetzt werden sollte.
Der Bauingenieur Konrad Zuse (1910-1995) erfand
schließlich im 20. Jahrhundert den Z 1, der dann als Z 3
verbessert wurde und der erste programmgesteuerte
Rechner der Welt war. Howard Aiken (1900-1973) baute den
MARK-I-Computer, die erste elektro-mechanische Version,
die 17 Meter lang war.
Als dann im
Zweiten Weltkrieg die Forschung ihren
Höhepunkt erreichte, hauptsächlich auch aus
kriegsbedingten Gründen und in der Verbesserung der
gegenseitigen Spionage, war die Radartechnik eine
wichtige technische Errungenschaft, die durch
elektronische Röhren die Grundstruktur eines Rechners
darstellte, als auch das Verschlüsselungssystem per
Funk, mit dem Nachrichten übertragen wurden und
Informationen nicht in die Hände des Feindes geraten
sollten. All das führte zur Idee des elektronischen
Computers, samt Verkleinerungstechnik durch die
Verwendung elektronischer Verstärker aus
Silizium-Halbleitern, während der Transistor die
Elektronenröhre bald ersetzte.
In den Siebzigern wurden dann der Halbleiter durch den
Silizium-Halbleiterbaustseine ersetzt. Dieser war
kleiner als ein menschlicher Fingernagel und enthielt
zweitausenddreihundert Transistoren. Schnell konnte die
Voraussage getätigt werden, dass sich die Anzahl der
Transistoren immer weiter verdoppeln und immer mehr
davon auf einen Mikroprozessor passen würde.
Die Auseinandersetzung mit der Informatik wurde immer
detaillierter. Theoretiker, Mathematiker, Techniker und
Wissenschaftler setzten sich mit den Problemen und ihren
Lösungen auseinander, Alan Turing (1912-1954)
formalisierte den Algorithmus-Begriff, andere legten die
Programmiersprache fest, neue Software wurde erfunden,
Vernetzungen möglich. Das 20. Jahrhundert gilt nicht
umsonst als Informationszeitalter. In ihm wurde die neue
Wissenschaft der Informatik begründet.