Geschichte der Informatik

Im Grunde ist der Anfang der Informatik die einfache Entscheidung des Menschen, durch Maschinen das eigene Gehirn entlasten zu können, darunter anspruchsvolle Rechenvorgänge, Lösung von Problemstellungen und eine damit verbundene Evolution der Technik einzuleiten und zu bewerkstelligen.
Anfang des 17. Jahrhunderts kam der Traum von einer Maschine auf, die selbstständig rechnen sollte. Vorreiter wie Johannes Kepler (1571-1630) und der Mathematiker Wilhelm Schickard (1592-1635) machten diese Wunschvorstellung wahr, so erfand Schickard eine Rechenuhr, die automatisch Zahlen verschob, um sie zusammenzuzählen. Einige Jahre darauf folgte ihm der bekannte Philosoph Blaise Pascal (1623-1662), der vom leeren Raum des Alls überwältigt war und diesen beständig zu ergründen suchte. Er nannte seine Rechenmaschine „Pascaline“, die der Schwerkraft bedurfte und damit im Grunde nicht besonders praktikabel war.
Ein anderer Philosoph, nämlich Gottfried Wilhelm Leibniz (1646-1716), beschäftigte sich unabhängig von den anderen in seinen Schriften ausführlich mit dem Gedanken an eine „lebendige Maschine“, träumte von einem Automaten, der selbstständig Zahlen zusammenzählen, aber auch subtrahieren, multiplizieren und teilen konnte. Leibniz schwebte sogar das selbstständige Errechnen der Wurzel vor. Er teilte seinen Automaten in drei Funktionen: die Eingabe der Zahlen, das Berechnen dieser und die Anzeige des Ergebnisses. Dieses Prinzip des In- und Outputs liegt auch heute noch jedem Computer zugrunde. Für die Berechnung und Leistungsfunktion bedarf es alleine zweier binärer Zahlen, der Eins und der Null, um die mechanische Umsetzung jedweder Maschine und später auch des Computers zu gewährleisten, denn in der Laiensprache bedeuten beide Zahlen einfach AN und AUS.
Bis ins 19. Jahrhundert wurden verschiedene Rechenmaschinen erfunden. Ausgerechnet die Methode, Webstühle so zu bauen, dass sie komplexe Muster weben konnten, führte zur Erfindung einer Lochkarte, die bahnbrechend in der Geschichte der Informatik war, denn durch sie konnte jedes beliebige Muster gestaltet werden. Statt Arbeit, übernahm nun die reine Information die Aufgabe, etwas hervorzubringen und zu kontrollieren.
Dieses Lochkartenprinzip nahm sich der Mathematiker Charles Babbage (1791-1871) vor und perfektionierte es. Er erfand den „Differential Engine“, der schwierige operative Vorgänge übernehmen und mühsame Berechnungen erleichtern sollte. Seine Vorstellung reichte weiter zu einer Maschine, die er „Analytical Engine“ nannte, die im Grunde die Geburtsstunde des Computers bedeutete, da sie sowohl mathematische Basisoperationen ausführen konnte, eine Kontrolleinheit besaß, also programmiert wurde, einen Speicher und dazugehörige Ein- und Ausgabevorrichtungen. Mit Babbage und seiner Kollegin und Assistentin Ada Lovelace (1815-1852) kam auch die Idee auf, eine solche Maschine könnte irgendwann Musik komponieren oder schwierige Grafiken anfertigen, wie es bald darauf umgesetzt werden sollte.
Der Bauingenieur Konrad Zuse (1910-1995) erfand schließlich im 20. Jahrhundert den Z 1, der dann als Z 3 verbessert wurde und der erste programmgesteuerte Rechner der Welt war. Howard Aiken (1900-1973) baute den MARK-I-Computer, die erste elektro-mechanische Version, die 17 Meter lang war.
Als dann im Zweiten Weltkrieg die Forschung ihren Höhepunkt erreichte, hauptsächlich auch aus kriegsbedingten Gründen und in der Verbesserung der gegenseitigen Spionage, war die Radartechnik eine wichtige technische Errungenschaft, die durch elektronische Röhren die Grundstruktur eines Rechners darstellte, als auch das Verschlüsselungssystem per Funk, mit dem Nachrichten übertragen wurden und Informationen nicht in die Hände des Feindes geraten sollten. All das führte zur Idee des elektronischen Computers, samt Verkleinerungstechnik durch die Verwendung elektronischer Verstärker aus Silizium-Halbleitern, während der Transistor die Elektronenröhre bald ersetzte.
In den Siebzigern wurden dann der Halbleiter durch den Silizium-Halbleiterbaustseine ersetzt. Dieser war kleiner als ein menschlicher Fingernagel und enthielt zweitausenddreihundert Transistoren. Schnell konnte die Voraussage getätigt werden, dass sich die Anzahl der Transistoren immer weiter verdoppeln und immer mehr davon auf einen Mikroprozessor passen würde.
Die Auseinandersetzung mit der Informatik wurde immer detaillierter. Theoretiker, Mathematiker, Techniker und Wissenschaftler setzten sich mit den Problemen und ihren Lösungen auseinander, Alan Turing (1912-1954) formalisierte den Algorithmus-Begriff, andere legten die Programmiersprache fest, neue Software wurde erfunden, Vernetzungen möglich. Das 20. Jahrhundert gilt nicht umsonst als Informationszeitalter. In ihm wurde die neue Wissenschaft der Informatik begründet.