1. EDV-Geschichte

  

 

ca. 1100 v. Chr.

Das älteste uns bekannte Rechengerät war der "Abakus" (ca. 1100v. Chr. in China). Sein System beruhte auf der unterschiedlichen Anordnung von beweglichen Kugeln auf mehreren Stabreihen, die in einem Rahmen angeordnet waren. Der Abakus ist vergleichbar mit der "Rechenmaschine" unserer ABC-Schützen und war in fast allen Kulturkreisen bekannt.

 

1623

Wilhelm Schickard (1592-1635), Tübinger Professor für Mathematik, Astronomie und biblische Sprachen, entwickelte an der dortigen Universität eine Rechenmaschine, die aus einem Zahnradgetriebe bestand und alle vier Grundrechenarten beherrschte.

 

1642

Blaise Pascal (1623-1662), französischer Mathematiker und Philosoph, stellt eine Rechenmaschine vor, die auf Basis der Addition die

 vier Grundrechenarten durchführte. Das Prinzip dieser Rechenmaschine war vergleichbar mit der von Schickard.

 

1672

Dr. jur. Wilhelm Freiherr von Leibniz (1646-1716) konstruiert eine Rechenmaschine, die wie ihre Vorgänger Probleme mit den erforderlichen engen Fertigungstoleranzen hat. Aus dieser Erkenntnis heraus entwickelte er das Dualsystem, das für den Einsatz auf Rechenmaschinen geeigneter ist als das Dezimalsystem. Leibniz' Erfindung bildet noch heute die Basis modernster Datenverarbeitung. Die Idee des Dualsystems wurde später (um 1850) von George Bool aufgenommen und weiterentwickelt.

 

um 1728

Der franz sische Mechaniker Falcon entwickelt um 1728 die ersten maschinell lesbaren Informationsträger für Webstühle. Diese Speicher bestanden aus Holzplättchen, in denen der Code für ein bestimmtes Webmuster in einer vorgegebenen mechanischen Lochkombination angebracht war. Diese Karten wurden als Lochkartenkette über einen mechanischen Ablesemechanismus des Webstuhls geführt und stellten die senkrechten Schnüre und Litzen ein, wodurch die Kettfäden je nach der Lochkombination gehoben oder gesenkt wurden.

 

1805

Joseph-Marie Jacquard erziehlt durch auswechseln der Lochkartenketten verschiedene Webmuster und entwickelt diese Technologie zu einer ausgereiften Technik.

 

1833

Der englische Mathematiker Charles Babbage entwickelt die erste Maschine, die schon damals die Grundfunktionen "Eingabe, Verarbeitung der Daten und Ausgabe" unserer heutigen Computer enthält.

1890

Hermann Hollerith benutzt erstmals die Lochkarte um statistische Angaben zur Person bei der Auswertung zur 11. amerikanischen Volkszählung im Jahre 1890 in einer elektromechanischen Lochkartenapparatur auswerten lassen. Dabei wurden alle Vorfälle zur statistischen Auswertung mit einem schreibmaschinenähnlichen Stanzer durch einen bestimmten Code ("Hollerith-Code") in Karten gelocht und anschließend ausgewertet. Aus der dadurch von Hollerith gegründeten Firma, die Tabulating Machine Company wuchs später die International Business Machine Company (besser bekannt als IBM). Wenige Jahre später begann das Zeitalter der EDV.

1941

Konrad Zuse (geb. 1910 in Berlin) entwickelt den ersten funktonsfähigen programmgesteuerten Rechenautomaten, genannt Z3. Der riesige Apparat bestand aus 600 Relais für ein Rechenwerk und 2000 Relais für das Speicherwerk. Rechner auf der Basis von elektromechanischen Relais werden als Computer der 0.Generation bezeichnet.

 

Rechengeschwindigkeit: 100 Millisekunden (1 mal 10^-1 Sek)

                       = 10 Operationen pro Sekunde

1944

Howard H. Aiken stellt an der Harvard Universität in den USA seine Rechenmaschine fertig, die beträchtlich größer als die von Zuse war. Die Maschine hatte sehr gewichtige Ausmaße: sie war 15m lang, etwa 2m hoch, bestand aus 750.000 Einzelteilen, wie unter anderem 3000 Kugellagern und hatte 80km Leitungsdrähte. Eine Rechenmaschine mit vergleichbaren Fähigkeiten wird heutzutage auf einem integrierten Halbleiterbaustein mit einer Fläche von 4 x 4 mm untergebracht. Die Rechenmaschine, die "Mark I" genannt wurde, wurde von einem Programm auf Papierlochstreifen gesteuert, das dual codiert und auf einem 24 spurigen Lochstreifen gespeichert war.

1946

An der Universität Pennsylvania wird von J. P. Eckert und J. W. Mauchly der erste funktionsfähige Röhrenrechner ENIAC entwickelt. Die Dateneingabe erfolgte &uum;ber Lochkarten oder dekadische Drehschalter, das Programmieren über verdrahtete Schalttafeln, die bei jedem Programmwechsel von neuem gesteckt werden mussten. ENIAC war jedoch rund 2.000 mal schneller als Mark I.
Diese Rechenmaschinen auf der Basis von Elektronenröhren werden als Computer der 1. Generation bezeichnet.

 

Rechengeschwindigkeit: 1 Millisekunde (1 mal 10^-3 Sek)

                       = 1000 Operationen pro Sekunde


Diese Ära wurde durch die Erfindung des Transistors ca. 1950 abgelöst.

1954

Die erste problemorientierte Programmiersprache FORTRAN wurde entwickelt.

1955

Die Bell Telephone Laboratories entwickelten den ersten Transistorrechner der Welt, der den Namen TRADIC erhält. Durch Transistoren wurden die Rechner schneller, billiger und kleiner im Vergleich zu den Elektronenröhrenrechnern.
Die Transistorenrechner werden als Computer der 2. Generation bezeichnet.

 

Rechengeschwindigkeit: 100 Mikrosekunden (1 mal 10^-4 Sek)

                       = 10.000 Operationen pro Sekunde

1958/1959

Jack S. Kilby entdeckt die Silizium-Planartechnik.

1964/1965

Durch die Erfinung des Chips wurde die 3. Comp.-Generation geboren. ein Chip besteht aus einer sehr kleinen Silizium-Platte, auf der eine große Menge von Transistoren, Dioden, Widerständen usw. aufgebaut sind. Ein Computer aus dieser Generation war z.B. das IBM-Computersystem 360.

 

Rechengeschwindigkeit: 1 Mikrosekunde (1 mal 10^-6 Sek)

                       = 1.000.000 Operationen pro Sekunde

ab 1971

Der erste Mikroprozessor 4004 (ein 4-Bit-Mikroprozessor) wird von Intel entwickelt. Hunderte von integrierten Schaltkreisen (ICs) konnten nun auf einem Chip untergebracht werden. Neben den Chips für Prozessoren wurden auch Chips für Speicher entwickelt. 1975 erscheint der erste 8-Bit Mikroprozessor 8080 von Intel und Digital Research entwickelt für diesen Prozessor das Betriebssystem CP/M. Diese Computer mit hochintegrierten Schaltkreisen (Mikrochips) werden als Computer der 4. Generation bezeichnet.

 

Rechengeschwindigkeit: 100 Nanosekunden (1 mal 10^-7 Sek)

                       = 10.000.000 Operationen pro Sekunde

1976

Apple stellt den ersten Personal Computer vor.
Die Massenproduktion von Computern führte zu weiteren Preissenkungen, so daß diese in einem immer größeren Bereich eingesetzt wurden.

1978

Der 8086-Prozessor, ein 16-Bit-Prozessor von Intel, erscheint auf dem Markt.

1981

Der IBM-PC wird zusammen mit dem neuen Betriebssystem MS-DOS vorgestellt. 1982 erreichen die ersten IBM-PC-kompatiblen Geräte den deutschen Markt. Ständige Miniaturisierung führt zu höchstintegrierten Schaltkreisen.

1984

IBM setzt einen neuen Standard mit dem AT ("Advanced Technology"), der mit dem Intel 80286-Prozessor ausgestattet ist.

ab 1985

Der AMIGA 1000 wurde 1985 der Weltöffentlichkeit präsentiert. Seit 1986 ist er in Deutschland erhältlich.

Der erste AMIGA war der A1000, mit 68000-Prozessor, 7 MHz Takt, ab 256 KB RAM, in einem kompakten Tischgehäuse. Software für diesen Urahn läuft heute noch problemlos auf den neuesten AMIGAs.

Der A1000 wurde durch das Paar A500/A2000 abgelöst. Der A500 wurde der führende Heimcomputer in Nachfolge des Commodore C64, während der A2000 mit seinen Steckplätzen und Erweiterungsmöglichkeiten das Arbeitspferd für professionelle Anwendungen wurde.

Der A3000 brachte den 68030-Prozessor und ECS-Chipsatz. Es gab ihn auch in Tower-Ausführung als A3000T.

Der A600 brachte den ECS-Chipsatz in die Heimcomputer-Kategorie.

Das Commodore CDTV war das erste CD-ROM-Multimedia-Gerät für das Wohnzimmer oder für Ausbildungsanwendungen.


Wie entwickelten sich die Betriebssystemversionen?

Die ersten ausgelieferten AMIGAs kamen mit OS 1.0 im Oktober 1985. Die entscheidenden Features wie präemptives Multitasking, 32-Bit-Struktur und Autoconfig waren von Anfang an fester Bestandteil, die auf anderen Plattformen erst heute langsam Eingang finden. Da OS 1.1 (Dezember 1985) noch einige Fehler enthielt, wurde es bald von OS 1.2 abgelöst, das auch eine stilistisch umgestaltete Benutzeroberfläche bot. OS 1.3 brachte die Fähigkeit, von Festplatte zu booten. OS 2.0 brachte eine totale Überarbeitung der grafischen Gestaltung, einige zusätzliche Fähigkeiten und die Unterstützung des ECS-Chipsatzes. OS 2.1 konnte zusätzlich in verschiedenen Landessprachen betrieben werden. OS 3.0 fügte weitere Fähigkeiten hinzu plus der Unterstützung des AA-Chipsatzes. Aktuell ist das OS 3.1, das z. B. ein CD-ROM-Filesystem mitbringt und auch auf älteren Amigas ohne AA-Chipsatz läuft.

1986

Die 32-Bit-Mikroprozessoren, der 80386 von Intel, wird in Personal-Computern eingesetzt. Dieser Prozessor bietet bereits Multitasking, das von MS-DOS jedoch nicht genutzt wurde(/wird).

1989

Die ersten PCs mit dem neuen 80486 Prozessor der Firma Intel werden vorgestellt. Allein auf der Grundlage der heutigen Betriebssysteme, die diesen Prozessor nur in seiner Geschwindigkeit nutzen können, ergibt sich eine Verdopplung bis Verdreifachung der Arbeitsgeschwindigkeit gegenüber dem 80386-Prozessor.

ab 1993

Pentium-Rechner (Intel). Erst in 5 V, später in 3,3V-Technologie gefertigt, letzte Versionen in 2,9 V Technik, Stromverbrauch damit von anfänglich ca. 40W auf unter 5W gesenkt. Taktfrequenzen von 60-233MHz, gegenüber dem 486DX nochmals stark verbesserte Numeric Processing Unit (NPU/FPU). Erste Ansätze zur Parallelverarbeitung in PC-Prozessoren. Gefertigt in 0,8µm-CMOS-Technologie, ca. 1 Million Transistoren, Chipgröße etwa 15*15mm, d.h. "Ende der Fahnenstange" in dieser Bauweise. Zuletzt durch Einbau von 52 neuen (Floatingpoint-) Befehlen zum MMX (MultiMediaeXtension) aufgebaut, damit erste CPU, die über Assemblerbefehle zum Packen und Entpacken von Gleitkommzahlen verfügt.

1996

Pentium PRO: Nachfolger des "normalen" Pentium, vereinigt den sonst externen Level-2-Cache (256, bzw. 512kb) und eine nochmals verbesserte CPU in einem Chip, aufgebaut in 3,3V-Technologie, 0,6µm-CMOS, Chipgröße etwa 25*15mm, zwei Chips in einem Gehäuse, CPU und Cache. Takfrequenzen 166-200 MHz, Parallelverarbeitung weiter verbessert, der PPRO verfügt z.b. über einen zweiten Stack-Pointer und Algorithmen zur Koppelung mehrerer Prozessoren. Entwicklung begann direkt nach dem Pentium, die ersten CPUs wurden im Herbst 95 ausgeliefert, damals noch für rund 8000.- Dollar. Interessantes Projekt in diesem Zusammenhang das Projekt "One Gigaflop", das ca. 7000 PPRO-CPUs koppeln will, um damit eine Rechenleistung von einer Milliarde Floatingpoint-Operationen/sec zu erreichen. Aufgrund des hohen Auschusses bei der Herstellung (die Chips sind zu groß) wird dieser Weg nicht weiterverfolgt. Der PPRO wird sein Dasein als typische Server-CPU fristen (allerdings dann zu viert), da er durch den eingebauten Cache einen Speicherdurchsatz wie sonst keine andere CPU erreicht und damit ideal für Netzwerke ist.

1997

Pentium II: Nachfolger des Pentium PRO, allerdings wurde der Level-2-Cache wieder auf das Mainboard ausgelagert. Ansonsten entspricht der P II weitgehend einem PPRO, nur mit MMX-Technologie. Dies zeigt sich auch in den ersten Benchmark-tests, der P II 266 ist ca. 20% schneller als ein PPRO 200. Um noch schneller zu werden, sind bis Herbst 97 die ersten 300 MHz, bis Frühjahr 98 die ersten 466 MHz-Versionen angekündigt. Da sie ebenfalls koppelbar sind (im Gegensatz zu allen Konkurrenz-Produkten von AMD (K6-200) oder Cyrix (M2)) sind damit PC in der Leistungklasse einer kleinen Workstation denkbar, das richtige Betriebssystem vorausgesetzt :-)