IT: damals/heute

IT-Geschichte — kurz aber gigantisch

Wenn man bedenkt, dass die Geschichte der Informatik relativ kurz ist, hat sich in dieser Zeit Gewaltiges getan. Aus den einstigen Ungetümen sind kompakte, handliche Geräte geworden, die heute in über 90 Prozent aller deutschen Haushalte präsent sind.

Wer heutzutage Rechner und Laptop sein Eigenen nennt, verdankt dies brillanten Erfindungen, die vielen Menschen das Leben immens erleichtern.

Die Wegbereiter moderner Computerwissenschaft

Zu den Vorläufern der Informationstechnik zählen die Rechenmaschinen. Ein digitales Rechengerät, das auf einem Zählvorgang beruhte, war schon der Abakus etwa 1100 vor Christus. Als noch älter nach dem Prinzip des Abakus galt die Salaminische Tafel etwa um 300 vor Christus.

Im 17. Jahrhundert entwickelte der englische Mathematiker William Oughtred ein analoges Rechengerät. Der deutsche Mathematiker und Astronom Wilhelm Schickard erfand die erste urkundlich erwähnte Maschine, einen Ziffernrechner für vier Grundrechenarten. 1671 konstruierte der Mathematiker Gottfried Wilhelm Leibnitz eine Rechenmaschine, basierend auf den vier Grundrechenarten, mit dem von ihm erfundenen Staffelwalzenprinzip. Diese Technik – ineinandergreifende Zahnräder – hielt sich über 200 Jahre.

Der englische Mathematiker Charles Babbage wird häufig als Erfinder des Digitalcomputers bezeichnet. Er entwarf den ersten digitalen programmgesteuerten Rechenautomaten. Dieser enthielt schon Rechenwerk, Zahlenspeicher, separates Steuerwerk sowie Ein- und Ausgabefunktionen.

1874 stelle der schwedische Erfinder Willgodt Odhner den ersten Tischrechner her, der bis ins 20. Jahrhundert benutzt wurde. Der amerikanische Unternehmer Herman Hollerith

entwickelte ein System zur Erfassung von Daten auf Lochkarten. Der deutsche Bauingenieur Konrad Zuse entwickelte 1941 mit dem Zuse Z3 den ersten funktionsfähigen Computer der Welt.

Entwicklungsstufen der Computer

Anfang und Ende einer Computergeneration werden nach Schaltkreistechnologie eingeordnet.

  • Generation 1: 1941 bis 1954 Elektroröhren
  • Generation 2: 1954 bis 1964 Transistoren
  • Generation 3: 1964 bis 1980 integrierte Schaltkreise
  • Generation 4: Ab 1980 Mikroprozessoren

In Deutschland ist das Computerzeitalter eng mit der Z3 des deutschen Erfinders Konrad Zuse verbunden. Mit dem Z3 konnten damals 64 Wörter mit je 22 Bit gespeichert werden.

Der Ingenieur Herman Hollerith erfand mit seinem System zur Datenerfassung eine Maschine zur statistischen Datenerfassung für die amerikanische Volkszählung. Um diese Erfindung profitabel zu machen, gründete er 1896 die Tabulating Machine Company. Diese fusionierte mit der Computing Scale Corporation und der International Time Recording Company zur Computing Tabulating Recording Corporation (CTR). 1924 wurde die CTR in IBM (International Business Machines Corporation) umbenannt. IBM ist ein noch heute weltweit führendes IT-Unternehmen.

Meilensteine über Meilensteine

Der Amerikaner John von Neumann gilt als einer der Schöpfer der Informatik. Seine Idee war es, Programme, die bis dato über Lochstreifen gelesen wurden, im Computer-Speicher unterzubringen. Und zwar erstmalig 1949 an der Universität Cambridge. Noch heute spricht man vom von-Neumann-Computer. Die von-Neumann-Architektur ist ein Computer-Modell, bei dem ein gemeinsamer Speicher sowohl Programm-Befehle und Daten enthält.

Etwa um 1954 wurden Rechner kleiner und zuverlässiger. Im Arbeitsspeicher konnten mehrere Tausend Zeichen gespeichert werden. Ein weiterer Geniestreich war die Entwicklung von maschinenunabhängigen Programmiersprachen. Die erste wurde 1954 entwickelt, die erste für wirtschaftsorientierte Lösungen 1959. Die Programmiersprache Fortran wird in Wissenschaft, Forschung und Technik eingesetzt. Fortran-Entwickler sind bis heute gefragte Experten.

Mit dem Einsatz von Mikroprozessoren ab den 80ern begann eine blitzschnelle Entwicklung von Computern. Damit wurden sie leistungsfähiger, kleiner und erschwinglicher. Ein Ende ist nicht abzusehen.

Für dich vielleicht ebenfalls interessant...